Skip to main content

Quick guides

Español

Índice

  1. Conectarse al clúster
    1. Nodos de inicio de sesión (logins)
    2. Cambiar la contraseña
    3. Acceso desde/hacia el exterior
  2. Directorios y sistemas de ficheros
    1. Directorios básicos bajo GPFS
    2. Límites/cuotas de espacio de almacenamiento
  3. Ejecutar trabajos
    1. Lanzar a colas
    2. Límites de colas
    3. Ejecutar en interactivo

Conectarse al clúster

caution

Las cuentas son de uso personal e intransferible. Si el proyecto requiere el acceso de otra persona a la máquina, el responsable del proyecto será el encargado de hacer este tipo de peticiones.

Nodos de inicio de sesión (logins)

Clúster
MareNostrum 4 (GP)mn1.bsc.es
mn2.bsc.es
mn3.bsc.es
CTE-AMDamdlogin1.bsc.es
CTE-POWERplogin1.bsc.es
plogin2.bsc.es
MinoTauromt1.bsc.es

Todas las conexiones deberán hacerse por SSH (Secure SHell), por ejemplo:

mylaptop$> ssh {username}@mn1.bsc.es

Cambiar la contraseña

Por seguridad, resulta imprescindible que se cambie la primera contraseña.

Para cambiar la contraseña, hay que entrar en la máquina Storage (Data Transfer machine):

mylaptop$> ssh {username}@dt01.bsc.es

con el mismo username y password que en el clúster. Entonces, se tiene que ejecutar el comando 'passwd'.

La nueva contraseña será efectiva después de aproximadamente 10 minutos.

Acceso desde/hacia el exterior

Los logins de acceso son los únicos nodos accesibles desde el exterior, pero por razones de seguridad no disponen de conexión hacia el ámbito exterior.

Para transferir archivos desde/hacia el exterior debe ejecutarse el comando siempre desde la máquina externa:

Ejemplo de copia de ficheros/directorios desde MN4 hacia una máquina externa:
 mylaptop$> scp -r {username}@dt01.bsc.es:"MN4_SOURCE_dir" "mylaptop_DEST_dir"
Ejemplo de copia de ficheros/directorios desde una máquina externa hacia MN4:
 mylaptop$> scp -r "mylaptop_SOURCE_dir" {username}@dt01.bsc.es:"MN4_DEST_dir"

Directorios y sistemas de ficheros

Existen varias áreas de espacio en disco. Cada área puede tener límites de tamaño y políticas de uso específicos.

Directorios básicos bajo GPFS

GPFS (General Parallel File System) es un sistema de archivos distribuido en red al que se puede acceder desde cualquier nodo del clúster y desde la máquina de transferencia de datos (dt01.bsc.es).

Los directorios y sistemas de ficheros de GPFS disponibles son:

  • /apps: donde reside una gran variedad de aplicaciones y librerías ya instaladas para uso común. Los usuarios no pueden escribir en él.

  • /gpfs/home: directorio personal con una cuota de espacio individual y capacidad más bien reducida. Es el área de trabajo por defecto tras el inicio de sesión, donde se pueden guardar códigos fuente, scripts y otros datos personales. No es apropiado para lanzar jobs; para tal fin, se recomienda usar /gpfs/projects o /gpfs/scratch.

  • /gpfs/projects: espacio destinado a almacenar datos que se deben compartir entre usuarios del mismo grupo o proyecto. La cuota de espacio es compartida por todos los miembros del grupo.

  • /gpfs/scratch: cada usuario tendrá su propio directorio bajo esta partición. Está pensado para almacenar archivos temporales de los trabajos (jobs) durante su ejecución, por ejemplo. Este espacio también es compartido por todos los miembros de un mismo grupo.

Límites/cuotas de espacio de almacenamiento

Se pueden consultar los límites de espacio en disco, así como las cuotas de uso actual para cada sistema de ficheros:

 $> bsc_quota

Ejecutar trabajos

Lanzar a colas

Para enviar trabajos a colas, se deben usar las directivas de Slurm, por ejemplo:

Enviar un trabajo:
 $> sbatch {job_script}
Mostrar todos los trabajos enviados:
 $> squeue
Cancelar la ejecución de un trabajo:
 $> scancel {job_id}

Límites de colas

Los límites de las colas (QoS) asignadas al proyecto los puede consultar mediante el comando:

 $> bsc_queues

Ejecutar en interactivo

Sesión interactiva

La asignación de una sesión interactiva debe realizarse a través de Slurm, por ejemplo:

Iniciar sesión interactiva en un nodo de cómputo:
 $> salloc -n 1 -c 4  # ejemplo para solicitar 1 tarea (task), 4 CPUs (cores) por tarea
Iniciar sesión interactiva reservando un nodo de cómputo en exclusiva:
 $> salloc --exclusive
Iniciar sesión interactiva en un nodo de cómputo usando GPUs:
 $> salloc -c 80 --gres=gpu:2  # ejemplo para solicitar 80 CPUs (cores) + 2 GPUs